AI存储抢疯了!三大技术破局千亿市场,国产玩家已悄悄卡位
前几天参加一个科技行业分享会,做AI大模型的朋友吐槽得特别实在。他说现在算力卡脖子的问题刚缓解,存储又成了新麻烦。训练一个千亿参数的多模态模型,每天产生的数据量能塞满几百个普通硬盘,老设备传数据的速度比蜗牛还慢,模型训练周期硬生生拖长了一倍多。散场后翻行业报告
前几天参加一个科技行业分享会,做AI大模型的朋友吐槽得特别实在。他说现在算力卡脖子的问题刚缓解,存储又成了新麻烦。训练一个千亿参数的多模态模型,每天产生的数据量能塞满几百个普通硬盘,老设备传数据的速度比蜗牛还慢,模型训练周期硬生生拖长了一倍多。散场后翻行业报告
【抢占 AI 存储市场下一风口,消息称三星电子已启动 HBF 高带宽闪存开发】对于大规模 AI 推理部署而言,传统的固态硬盘形态一般 NAND 存储难以满足高速输出的需求,而三星电子持有性能更为出色的 Z-NAND 技术。
韩媒 fnnews 当地时间 1 日表示,三星电子已着手开展 HBF 高带宽闪存产品的概念设计等前期开发工作,计划针对 AI 数据中心对于高速存储介质的需求开发新产品。由于目前尚属初期,具体产品规格及量产时间尚无法确认。
过去几年,AI 的飞速发展让算力成为全球争夺的核心,但很多人忽视了一个同样至关重要的环节——存储。没有存储的支撑,算力就像没有燃料的引擎,再强大也难以释放全部潜能。尤其是在大模型和生成式 AI 的浪潮下,数据体量和推理场景不断膨胀,存储的需求也随之水涨船高。
虽然三星的 HBM4 还没有通过英伟达的验证,但就在上周五(9 月 19 日),三星的 12 层 HBM3E 终于通过了英伟达的测试认证,也意味着即将成为英伟达 GPU 的 HBM 供应商之一。一石激起千层浪。AI 的火热不只是让人们争相讨论大模型和算力芯片,
虽然三星的 HBM4 还没有通过英伟达的验证,但就在上周五(9 月 19 日),三星的 12 层 HBM3E 终于通过了英伟达的测试认证,也意味着即将成为英伟达 GPU 的 HBM 供应商之一。
虽然三星的 HBM4 还没有通过英伟达的验证,但就在上周五(9 月 19 日),三星的 12 层 HBM3E 终于通过了英伟达的测试认证,也意味着即将成为英伟达 GPU 的 HBM 供应商之一。
被称作“HBM之父”的韩国科学技术院(KAIST)教授金正浩指出,HBF(高带宽闪存)可能成为人工智能未来的决定性因素。HBF是一种类似HBM的专为AI领域设计的新型存储器架构,区别在于HBF使用NAND闪存代替DRAM。金正浩强调,当前的人工智能瓶颈在于内存
据韩国媒体Thelec报导,韩国科学技术院(KAIST)电机工程系教授 Kim Joung-ho(在韩国媒体中被誉为“HBM 之父”)表示,高带宽闪存(High Bandwidth Flash,HBF)有望成为下一代 AI 时代的重要存储技术,将与高带宽内存(
据韩国媒体Thelec报导,韩国科学技术院(KAIST)电机工程系教授 Kim Joung-ho(在韩国媒体中被誉为“HBM 之父”)表示,高带宽闪存(High Bandwidth Flash,HBF)有望成为下一代 AI 时代的重要存储技术,将与高带宽内存(
日前,闪迪宣布已与SK海力士签署一项谅解备忘录,双方将共同制定高带宽闪存 (High Bandwidth Flash,HBF) 规范。通过此次合作,双方希望标准化规范、定义技术要求,并探索构建HBF的技术生态系统。
这项新技术旨在为下一代人工智能(AI)推理提供突破性的内存容量与性能。双方将通过合作,致力于制定标准化规范、明确技术要求,并探索构建HBF技术生态系统。
闪迪(SanDisk)宣布,已经与SK海力士签署了一份具有里程碑意义的谅解备忘录(MOU),共同制定高带宽闪存(HBF)规范。这是一项新技术,旨在为下一代人工智能(AI)推理提供突破性的内存容量和性能。通过此次合作,双方希望制定标准化规范、明确技术要求,并探索